Un compito linguistico scopre due
tipi umani di elaborazione cerebrale
DIANE RICHMOND
NOTE E NOTIZIE - Anno XVI – 16 marzo
2019.
Testi
pubblicati sul sito www.brainmindlife.org della Società Nazionale di
Neuroscienze “Brain, Mind & Life - Italia” (BM&L-Italia). Oltre a
notizie o commenti relativi a fatti ed eventi rilevanti per la Società, la
sezione “note e notizie” presenta settimanalmente lavori neuroscientifici
selezionati fra quelli pubblicati o in corso di pubblicazione sulle maggiori riviste
e il cui argomento è oggetto di studio dei soci componenti lo staff dei recensori della Commissione Scientifica della Società.
[Tipologia del testo: RECENSIONE]
Perché alcuni riescono a riprodurre
un ritmo anche complesso ascoltato una sola volta ed altri non distinguono un
valzer da una bossa nova? Perché
alcuni hanno una grande facilità nell’apprendere nuove lingue e, con poco
esercizio, ne riproducono la prosodia e le cadenze caratteristiche, mentre
altri dopo anni di sforzi sembrano rimanere refrattari a questi aspetti
qualitativi degli idiomi diversi dal proprio? L’idea che tali differenze siano strettamente
dipendenti dal sostrato anatomo-funzionale cerebrale e non siano semplicemente
il portato di gradi diversi di prestazione dipendenti da un maggiore o minore
rinforzo e consolidamento sinaptico dovuto ad apprendimento, si è fatta strada
da tempo fra i ricercatori di varie branche delle neuroscienze[1].
Se caratteristiche morfo-funzionali
specifiche distinguono, ad esempio, il cervello delle persone sensibili al
ritmo della parola udita da quelle assolutamente insensibili alla cadenza
temporale dell’evento acustico-verbale, dovrebbe essere possibile con
esperimenti di ascolto e registrazione delle risposte encefaliche dei volontari
oggettivare tali peculiarità. Eppure, fino ad oggi, non sono stati realizzati
studi in grado di sottoporre a verifica l’esistenza di due o più tipologie di
risposta in campioni sperimentali.
M. Florencia Assaneo e colleghi
coordinati da David Poeppel presentano un compito comportamentale
apparentemente semplice, ma in grado di definire in modo chiaro e netto due
gruppi qualitativamente differenti nella popolazione generale. I risultati
dello studio sono rilevanti per la conoscenza neuroscientifica in generale, e
per tutti coloro che studiano le basi cerebrali dei processi cognitivi o
lavorano nell’ambito della riabilitazione neuropsicologica.
(Assaneo M. F., et al. Spontaneous synchronization to speech reveals neural mechanisms
facilitating language learning. Nature Neuroscience - Epub
ahead of print doi: 10.1038/s41593-019-0353-z, 2019).
La provenienza degli autori è la seguente: Department of Psychology, New
York University, New York, NY (USA); Cognition and Brain Plasticity Unit,
IDIBELL, l’Hospitalet de Llobregat, Barcelona (Spagna); Department of
Cognition, Development and Educational Psychology, University of Barcelona,
Barcelona (Spagna); Institute of Neuroscience, University of Barcelona,
Barcelona (Spagna); Neuroscience Department, Max Planck Institute for Empirical
Aesthetics, Frankfurt (Germania).
Anche se negli ultimi decenni gli
studi sulla percezione del linguaggio, e in particolare sullo sviluppo delle
abilità percettive in rapporto all’apprendimento della lingua madre, sono stati
numerosi e hanno migliorato notevolmente le nostre conoscenze su questo
argomento, ancora poco è noto della base neurale specifica di fenomeni quali la
percezione di una successione ritmica di sillabe, come quella impiegata nello
studio qui recensito.
Negli anni Settanta Peter Eimas
dimostrò la capacità degli infanti di distinguere unità fonetiche nelle lingue
verbali, mediante il rilievo di lievi cambiamenti acustici al confine fra
categorie fonetiche, anche di lingue che non avevano mai udito. Il fenomeno,
detto percezione categoriale, nella
crescita subisce una restrizione: gli adulti hanno questa abilità di
distinguere con precisione solo le unità fonetiche della lingua madre e di
lingue apprese ad un livello molto avanzato, con una padronanza prossima a
quella della madrelingua. Ad esempio, i Giapponesi hanno grande difficoltà nel
distinguere la l dalla r nell’inglese americano, percepite
entrambe come la r giapponese che,
nella loro articolazione, oscilla fra l’alveolare laterale liquida l e un suono caratterizzato da rotacismo
vicino ma non identico a quello della r
inglese. La percezione categoriale, come fu già dimostrato nel 1975 dalla
neuroscienziata cognitiva Patricia Kuhl, non è esclusiva dell’uomo, ma esiste
nel cincillà[2] e nelle scimmie.
Gli studi comparati condotti nei
decenni successivi hanno tracciato un quadro che ci consente di affermare che
le unità fonetiche del linguaggio verbale non sono state sviluppate nella
nostra specie come conseguenza dell’invenzione e dell’uso delle lingue, ma si
sono evolute da preesistenti strutture uditive formate negli animali per il
riconoscimento di richiami e vocalizzazioni specie-specifici. La capacità del
lattante di riconoscere potenzialmente tutte le caratteristiche di tutti gli
idiomi umani, ossia l’abilità nota come universalismo
linguistico alla nascita, rende evidente che le limitazioni fonetiche degli
adulti costituiscano il prodotto di una specializzazione per selezione che,
riducendo lo spettro di suoni discriminabili, accresce l’efficienza nella lingua
madre. La straordinaria abilità di estrarre significati dalle complesse e
rapide articolazioni comunicative tipiche delle nostre conversazioni, si deve
anche all’efficienza di questi meccanismi.
Nell’apprendimento della lingua
madre si verifica un importante cambiamento nella percezione dei suoni fonetici
tra i 6 e i 12 mesi. Infatti, la seconda metà del primo anno di vita
rappresenta un periodo di speciale recettività per l’apprendimento della
capacità di comunicazione verbale. Negli esperimenti classici della Kuhl, per
verificare se questo periodo consentisse l’apprendimento a bambini americani
del cinese mandarino, furono esposti lattanti di età compresa tra i 9 e i 10
mesi di vita all’ascolto della lingua più parlata al mondo. Gli studi
dimostrarono che l’apprendimento è possibile solo se avviene attraverso
l’interazione umana: lo stesso materiale proposto all’ascolto mediante
audiocassette o televisione non sortiva gli effetti sperati. Numerosi
esperimenti hanno poi dimostrato, mediante l’interazione umana, che il periodo
intorno ai 9 mesi costituisce l’intervallo temporale biologico di recettività naturale per l’apprendimento
fonetico.
Cercando le cause del cambiamento
della percezione dei lattanti in questo periodo, si è scoperto un processo di
apprendimento implicito associato all’esposizione alla parola umana e, in
particolare, si è accertato che a 6 mesi il cervello del bambino comincia ad
organizzare i suoni verbali uditi in categorie basate su prototipi fonetici, ossia le unità fonetiche più frequenti che sono
estratte come paradigmi. Quale epifenomeno di questo processo, il lattante
ignora le variazioni acustiche sviluppate intorno ai prototipi fonetici della
lingua madre, come è stato dimostrato per la prima volta in bambini svedesi e
statunitensi.
I dati relativi ai correlati
neurofunzionali di questi processi sono ancora molto limitati e ancor meno è
nota la base neurale della discriminazione fra ritmi sillabici diversi.
Ritorniamo, ora, al compito ideato
da Assaneo, Poeppel e colleghi per la distinzione fra due sensibilità e
risposte cerebrali a successioni di foni uditi.
La prova, consistente nell’ascolto
di una sequenza isocrona di sillabe
in ordine casuale, ha determinato due
reazioni opposte. In particolare, una parte di coloro che hanno ascoltato la
sequenza si è comportata come se fosse obbligata ad allineare la propria
contemporanea produzione di sillabe alla frequenza di quelle udite, mentre
un’altra parte è rimasta insensibile allo stimolo ritmico percepito.
I ricercatori hanno cercato di
individuare la base cerebrale di questa differenza impiegando sia metodi neurofisiologici, sia metodiche
di neuroimmagine strutturale. Tale
studio ha rivelato precise differenze tra le due tipologie neurofunzionali in
cui è possibile dividere la popolazione generale.
Gli esami strumentali hanno messo in
evidenza delle peculiarità morfologiche e funzionali legate alla presenza o
meno di sensibilità al ritmo sillabico, con chiare conseguenze per
l’elaborazione cerebrale dell’informazione relativa alla comunicazione verbale
e per l’apprendimento stesso di codici simbolici acustici in generale, e del
linguaggio in particolare.
I volontari dello studio che
manifestavano la capacità di sincronizzazione spontanea alla successione udita
(high sincronizer), quando erano
esposti all’ascolto verbale passivo, facevano registrare un’accresciuta
sincronizzazione cervello/stimolo in corrispondenza delle aree del lobo frontale, configurando un preciso pattern localizzato. David Poeppel e
colleghi hanno poi rilevato e dimostrato che tale pattern è strettamente correlato con specifiche differenze microstrutturali nelle vie nervose della sostanza bianca che
connettono i lobi frontali alle aree
della corteccia temporale
specializzate nell’elaborazione uditiva (area acustica primaria o 41 di
Brodmann, ecc.).
L’insieme dei dati emersi da questo
studio – come sottolineano gli autori – documenta un meccanismo sottostante la
prestazione in compiti “ecologicamente rilevanti” di apprendimento di parole.
Concludendo, si può condividere la
convinzione degli autori dello studio, secondo i quali il compito da loro
ideato contribuirà ad una migliore comprensione e caratterizzazione della
prestazione individuale nell’elaborazione della parola udita e
nell’apprendimento delle lingue.
L’autrice della nota ringrazia
la dottoressa Isabella Floriani per la correzione della bozza e invita alla lettura delle numerose recensioni di argomento connesso che appaiono
nella sezione “NOTE E NOTIZIE” del sito (utilizzare il motore interno nella
pagina “CERCA”).
Diane Richmond
BM&L-16 marzo 2019
________________________________________________________________________________________________________________________
La Società Nazionale di Neuroscienze
BM&L-Italia, affiliata alla International Society of Neuroscience, è
registrata presso l’Agenzia delle Entrate di Firenze, Ufficio Firenze 1, in
data 16 gennaio 2003 con codice fiscale 94098840484, come organizzazione
scientifica e culturale non-profit.
[1] Si ricorda che tale ipotesi è stata avanzata oltre vent’anni fa da Giuseppe Perrella, sulla base di osservazioni condotte sulla sensibilità al ritmo e alla prosodia nella prima infanzia. La differenza nella capacità di imitare ritmi, melodie e prosodie linguistiche, così come di esibire capacità recitative innate, era stata rilevata in numerosi bambini dai 3 ai 5 anni.
[2] Chinchilla lanigera (Bennet, 1829) sono roditori caviomorfi della famiglia delle Chinchillidae, originari della regione delle Ande, simili a scoiattoli di grandi dimensioni e con stile motorio che ricorda quello del coniglio. I grandi padiglioni auricolari, densamente percorsi da vasi che contribuiscono alla termoregolazione, hanno da sempre attratto l’attenzione dei ricercatori per studi sulla percezione acustica. Considerato animale da compagnia, in passato è stato quasi sterminato per la sua pelliccia.